"Deepfake di Sobyanin": gli hacker hanno clonato i responsabili regionali per ingannare i clienti delle banche

I criminali informatici hanno adottato tecnologie di intelligenza artificiale (IA). Cominciarono a usare massicciamente le immagini di funzionari e uomini d'affari famosi per estorcere denaro ai russi. Per saperne di più sul suo funzionamento, leggi l'articolo di NI.
Un nuovo tipo di frode si sta diffondendo rapidamente online utilizzando i deepfake: immagini di personaggi famosi rese reali grazie alla tecnologia dell'intelligenza artificiale.
Sono già stati descritti casi in cui i russi vengono convinti a “trasferire denaro su un conto sicuro” o a investire i risparmi in un “business super redditizio” tramite immagini elettroniche con l’aspetto e la voce dei capi delle regioni russe, di artisti famosi e di imprenditori di successo.
“La scorsa settimana sui social network è apparsa una nuova ondata di video falsi che ritraggono i leader delle regioni russe. "I truffatori hanno creato falsi canali Telegram dei governatori di Vologda, Smolensk, Samara e di altre regioni, dove diffondono disinformazione", ha riferito l'UBK del Ministero degli affari interni della Russia (polizia informatica del Ministero degli affari interni della Federazione Russa).
Il Ministero dello sviluppo digitale ha chiarito che il primo deepfake con il sindaco di Mosca Sergei Sobyanin è apparso su Internet un anno e mezzo fa.
Il fondatore dell'Istituto di tecnologie finanziarie e di investimento, Alexey Primak, ricorda che in passato, per raggiungere i loro loschi obiettivi, i truffatori inviavano "solo" un messaggio di testo o un'e-mail da una persona "vicina" che si trovava in difficoltà e aveva bisogno di soldi. Tuttavia, ora le loro capacità tecniche sono aumentate notevolmente.
"Adesso i truffatori creano audio, sintetizzano la voce e creano messaggi video", avverte l'esperto.
L'arsenale di tecnologie di intelligenza artificiale a disposizione dei truffatori si sta espandendo rapidamente. Foto: Immagine di Midjourney
Oggigiorno, la “clonazione” digitale delle immagini di altre persone mediante tecnologie di intelligenza artificiale è diventata molto diffusa. La polizia informatica ha chiarito che la diffusione di informazioni presumibilmente provenienti da funzionari può perseguire diversi obiettivi, che vanno dal phishing all'influenza psicologica volta a destabilizzare la situazione.
Il capo del Dipartimento di personologia e analisi comportamentale dell'Accademia delle tecnologie sociali, psichiatra, psicologo ed esperto nella scoperta della menzogna, Alexey Filatov, ha dichiarato a NI che in precedenza il Paese aveva già registrato incidenti di massa di invio di falsi messaggi audio da parte di dirigenti di aziende municipali, università, scuole, ospedali e altre organizzazioni.
"I falsi audio hanno un grado di affidabilità più elevato perché sono più coinvolgenti e la loro autenticità è meno facile da verificare", ha spiegato l'esperto.
Ha sottolineato che, prima di tutto, gli aggressori raccolgono campioni della voce di una persona (ad esempio, da discorsi pubblici, interviste, registrazioni audio) e poi, utilizzando reti neurali, sintetizzano frasi false che imitano il timbro, l’intonazione e il modo di parlare della persona.
"I modelli moderni consentono di creare tali campioni in pochi minuti e, in combinazione con la generazione di video deepfake, i truffatori possono persino imitare le videochiamate. Oggi ci sono almeno una dozzina di siti aperti e programmi specializzati su Internet che consentono a quasi chiunque con competenze informatiche medie di farlo", ha chiarito Alexey Filatov.
Secondo il responsabile del dipartimento analitico della società di investimento "Rikom-Trust", Ph.D. N. Oleg Abelev , i partecipanti al mercato finanziario possono installare una protezione contro i deepfake.
“Oggi si tratta di software che consentono una migliore identificazione dei clienti, in quanto forniscono informazioni aggiuntive per completare una transazione, identificazione multifattoriale, quando il sistema di sicurezza verifica non solo il codice, ma anche il dispositivo stesso da cui viene effettuata la richiesta di dati personali, l'indirizzo IP, la posizione, nonché sistemi antifrode addestrati su operazioni tipiche.
E se succede qualcosa di insolito, questa operazione viene verificata con il database dei campioni di attività fraudolente e, se c'è una corrispondenza, l'operazione viene automaticamente bloccata finché il proprietario dell'account non fornisce la conferma necessaria", ha affermato l'esperto.
È convinto che quando comparirà un software in grado di riconoscere i deepfake, allora potremo dire che l'intelligenza artificiale sta tutelando gli interessi e i fondi dei clienti delle banche e di altre società finanziarie.
Tuttavia, le tecnologie di protezione degli utenti sono ancora in ritardo rispetto al ritmo delle attività tecniche dei truffatori.
“Le aziende di sviluppo stanno già testando algoritmi di rilevamento delle contraffazioni analizzando le microvibrazioni nella voce, le anomalie della sintesi vocale e gli artefatti nel rendering visivo. Alcune banche e servizi di messaggistica stanno sviluppando meccanismi di autenticazione basati su fattori aggiuntivi, tra cui la richiesta di pronunciare parole casuali, l'analisi delle caratteristiche biometriche e la verifica dei metadati dei file audio. Tuttavia, non esiste ancora una soluzione affidabile e di massa", ha avvertito l'esperto Alexey Filatov .
Secondo il Ministero degli Interni, in risposta alle lamentele degli utenti sulla proliferazione di "cloni" di funzionari, l'amministrazione del messenger Telegram ha già identificato e contrassegnato come inaffidabili i canali sospetti con deepfake. Alcuni di essi sono stati rimossi del tutto. Tuttavia, i truffatori che cercano di rubare i portafogli dei russi non restano con le mani in mano: creano sempre più immagini false che imitano con meticolosa precisione l'aspetto e la voce dell'originale.
“Consigliamo agli utenti di affidarsi solo a fonti attendibili. Non sarebbe una cattiva idea verificare l'inclusione del canale nell'elenco delle pagine personali degli utenti dei social network, il cui pubblico è di oltre diecimila utenti", ha consigliato la polizia informatica.
Lo psicologo Alexey Filatov ha aggiunto che in ogni situazione la cosa principale è restare vigili e mantenere la calma.
“Se all’improvviso ricevi una chiamata dal ‘governatore’, da un agente delle forze dell’ordine, un messaggio vocale da un manager o da un ‘impiegato di banca’ che ti chiede di fare qualcosa con urgenza, devi stare attento: è tutta una truffa”, è convinto l’esperto.
Gli esperti consigliano di non farsi prendere dal panico quando si ha a che fare con i truffatori. Foto: Immagine di Midjourney
Per evitare di cadere vittima di criminali, lo specialista consiglia ancora una volta di giocare sul sicuro.
“Utilizza canali di verifica aggiuntivi: richiama i contatti ufficiali, fai domande a cui il falso potrebbe non sapere rispondere. "Non fidatevi ciecamente delle videochiamate, soprattutto se la qualità dell'immagine è strana e le espressioni facciali sembrano artificiali", ha consigliato Alexey Filatov .
L'esperto Alexey Primak consiglia di tenere sotto controllo le proprie difese in ogni situazione e di non permettere al panico di superarle.
“Parliamo separatamente delle frodi sugli investimenti. Grazie ai deepfake, su Internet compaiono video di personaggi famosi, ad esempio Pavel Durov , Oleg Tinkov* e altri personaggi noti. E se all'improvviso una persona famosa pubblicizza, ad esempio, un nuovo terminale per il trading di criptovalute, i creduloni perdono la vigilanza. Lo scopo di tutto questo è ingannare gli investitori.
Ricorda: uno spot pubblicitario di un personaggio famoso, soprattutto se l'oggetto della pubblicità non ha alcun legame con lui e non è la sua attività, non è un motivo per investire. "Se il risultato dell'investimento sembra troppo dolce e allettante e la redditività è troppo bella per essere vera, di solito si tratta al 100% di una truffa", avverte Alexey Primak.
La voce dell'attrice russa Alena Andronova, registrata come voce narrante per un'applicazione bancaria, è stata rubata dai creatori di siti porno. Foto: Campionato
Va notato che in Occidente la tecnologia di utilizzo dei deepfake è diffusa da molto tempo ed è del tutto legale. Inizialmente, fu creato, tra le altre cose, come mezzo per proteggere la salute e la vita degli attori cinematografici durante le loro acrobazie complesse. Tuttavia, la pratica dell'uso dei deepfake si diffuse così tanto che i cloni digitali iniziarono a sostituire le persone viventi, il che portò a scioperi da parte degli autori.
Anche la Russia ha avuto la sua quota di scandali artistici.
L'attrice ha dichiarato di aver intentato una causa contro la Tinkoff Bank per proteggere il suo onore e la sua dignità. L'attrice ha accusato l'istituto di credito di aver rubato campioni della sua voce che, contro la sua volontà, sono "migrati" dai servizi audio della banca alle voci fuori campo per le pubblicità dei siti porno .
Andronova ha chiesto in tribunale alla banca 6 milioni di rubli. Ha inoltre annunciato la sua intenzione di unirsi ai doppiatori e all'Unione degli annunciatori russi per ottenere la protezione legislativa delle voci. Andronova ha affermato che è necessario proteggere la voce di un cittadino allo stesso modo della sua immagine e vietare a terzi di utilizzare una registrazione vocale per sintetizzare un discorso, a meno che ciò non sia chiaramente indicato tra gli scopi della registrazione.
*Aggiunto al registro degli agenti stranieri dal Ministero della Giustizia russo.
newizv.ru